Новости Статьи Российское ПО VMware Veeam StarWind vStack Microsoft Citrix Symantec События Релизы Видео Контакты Авторы RSS
Виртуализация и виртуальные машины

Все самое нужное о виртуализации и облаках

Более 6490 заметок о VMware, AWS, Azure, Veeam, Kubernetes и других

VM Guru | Ссылка дня: Полный список лабораторных работ VMware Hands-on Labs

Новые возможности VMware vCloud Director 8.1.


Компания VMware давненько не выпускала обновления своего главного средства для управления облачной инфраструктурой VMware vSphere. Но в самом конце мая вышел долгожданный апдейт - VMware vCloud Director 8.1. Напомним, что vCloud Director - это продукт, предназначенный для сервис-провайдеров, которые продают ресурсы публичного облака по моделям IaaS/SaaS (рапространяется по программе vCloud Air Network Program).

Основная идея новой версии vCloud Director - это полная поддержка средства сетевой виртуализации корпоративной инфраструктуры VMware NSX, а также нововведения в интерфейсе, которые ранее были доступны только через API-вызовы.

Посмотрим на полный список новых возможностей VMware vCloud Director 8.1:

  • Expanded UI Access to Features - поддержка функций, ранее доступных только через API, в консоли vCloud Director Web Console.
  • Virtual Machine Affinity Rules - теперь через vCloud Director Web Console или через vCloud API можно задавать правила раздельного/совместного существования виртуальных машин на хостах ESXi (Affinity Rules).
  • Object Extensibility - эта новая фича заключается в том, что теперь можно использовать расширения object extensions, представляющие собой внешние приложения, которые дополняют или перекрывают логику vCloud Director для комплексных операций, таких как, например, развертывание виртуальных сервисов vApp.
  • Advanced Virtual Machine Properties and Host Configurations - если ваш сервис-провайдер включил поддержку кастомных конфигураций ESXi-хостов, то можно использовать метаданные объектов vCenter для виртуальных машин, которые могут быть использованы, например, для корректного плейсмента ВМ на хостах.
  • VDC Permissions - администраторы облака, отвечающие за конкретных клиентов, могут ограничить доступ к VDC отдельным пользователям или группам.
  • Tenant throttling - администратор может ограничить объем ресурсов, который потребляет организация или пользователь. Это позволяет убедиться в том, что пользователь не выест все ресурсы в условиях нескольких одновременно запущенных долгосрочных операций.
  • Unattended Installation - теперь установка возможна в автоматическом режиме с помощью заранее подготовленного сценария.
  • Expanded Hardware Version and Guest OS support - теперь поддерживается обновленная версия виртуального железа Hardware Version 11, а также гостевые ОС Windows 10.
  • Полная поддержка последней версии VMware NSX - теперь уже решение VMware vShied Manager не поддерживается, а пользователям vCD предлагается мигрировать на платформу NSX.

Обновиться на vCloud Director 8.1 можно только с версии 8.0 или придется ставить его заново. Скачать решение vCD можно по этой ссылке.


Таги: VMware, vCloud, Director, Update, Cloud, Cloud Computing, IaaS

Как узнать версию любого объекта VMware? Используйте Get-Version!


Очень часто мне, как и любому администратору виртуальной инфраструктуры VMware, требуется знать версию того или иного объекта. Это может быть версия VMTools/vHardware виртуальной машины или версия vSphere хоста ESXi или версия VMFS-датастора (продолжите список сами). И каждый раз вы начинаете судорожно вспоминать, как это делается, где и какой скрипт искать или пускаетесь в поиски по форумам или обращаетесь к доктору Google).


Таги: VMware, vSphere, PowerCLI, VMachines, ESXi, Blogs

Обновленные версии vGate 3.0 от "Кода безопасности" (vGate R2 и vGate-S R2) поступили в продажу!


Среди компаний, имеющих в своей производственной среде виртуальную инфраструктуру VMware vSphere или Microsoft Hyper-V, многие применяют для защиты виртуальных сред средство vGate R2 от компании "Код безопасности", позволяющее безопасно настроить инфраструктуру согласно различным требованиям с помощью наборов политик, разграничить доступ администраторов, а также защититься от несанкционированного доступа к виртуальным ресурсам.

На днях компания "Код безопасности" объявила о том, что обновленные версии продуктов vGate R2 и vGate-S R2 (релиз 3.0) для защиты сред виртуализации на базе VMware vSphere и Microsoft Hyper-V поступили в продажу. Напомним, что о возможностях прошлой версии мы уже писали вот тут, а в этом разделе мы собираем все новости о решении vGate (включая анонсы третьей версии).

Новая версия vGate R2 3.0, прежде всего, отличается расширенными возможностями работы в распределенных инфраструктурах и изменением схемы лицензирования. В результате заказчики vGate смогут получить функционал продукта, в наибольшей степени отвечающий целям и задачам организации. Обновленная версия vGate (vGate R2 и vGate-S R2, релиз 3.0) поддерживает расширенный набор инструментов работы с платформами виртуализации VMware vSphere и Microsoft Hyper-V.

Ниже приведены основные нововведения новой версии vGate 3.0:

  • В vGate 3.0 реализована полнофункциональная работа на платформе VMware vSphere 6. В качестве сервера управления инфраструктурой виртуализации теперь может выступать vCenter Server Appliance (VCSA), а управление ESXi-хостами может осуществляться посредством ESXi Embedded Host Client.
  • Обновленный продукт осуществляет поддержку управления инфраструктурой на базе Microsoft Hyper-V через System Center Virtual Machine Manager, а управление кластерами Hyper-V реализовано через Failover Cluster Manager.
  • Для быстрой настройки привилегий пользователей используется ролевая модель доступа. При создании учетной записи можно ограничить доступ по типам объектов, предоставив его, например, только к виртуальным машинам или сетевым объектам.
  • У продукта появился ряд новых функций для работы в Enterprise-инфраструктурах. Например, реализована поддержка режима горячего резервирования и автопереключение сервера авторизации (High-Availability cluster). В случае потери работоспособности основного сервера в автоматическом режиме происходят переключение на резервный сервер, замена IP-адреса и оповещение администратора.
  • Обновленная версия продукта позволяет работать с несколькими площадками виртуализации одновременно (этот функционал доступен только в Enterprise-редакции продукта - он будет очень полезен в крупных инфраструктурах). Механизм подключения агента аутентификации к нескольким серверам авторизации vGate дает возможность взаимодействовать со всей территориально распределенной виртуальной инфраструктурой. Построение леса серверов авторизации позволяет устанавливать групповые политики безопасности, а поддержка функции Cross vCenter vMotion обеспечивает в случае аварий миграцию виртуальных машин между серверами с сохранением политик безопасности.
  • Помимо этого, в vGate версии 3.0 обновлены наборы политик безопасности, обеспечивающие соответствие приказам ФСТЭК России №17 и №21, стандартам СТО БР ИББС, PCI DSS и другие.

Новые версии vGate R2 и vGate-S R2 применимы для защиты конфиденциальной информации и государственной тайны. Продукты прошли инспекционный контроль ФСТЭК России в подтверждение выданных ранее сертификатов соответствия от 28.03.2011 № 2308 и от 12.07.2011 № 2383.

vGate 3.0 можно приобрести в одной из двух редакций: Standard или Enterprise (для которой доступны все функции работы в крупных инфраструктурах). Ниже приведены основные отличия этих изданий:

Получить дополнительную информацию о технических особенностях vGate и направить запрос на получение демо-ключа можно по e-mail: vgateinfo@securitycode.ru. Более подробная информация о решении представлена на странице продукта vGate R2.


Таги: Security Code, vGate, Security, VMware, vSphere, Microsoft, Hyper-V

Вывод числа виртуальных машин и их имен в физической консоли VMware ESXi.


Вильям Лам написал интересный пост об изменении приветственного экрана физической консоли VMware ESXi. Некоторые из вас знают, что внешний вид DCUI-консоли ESXi можно менять в файле /etc/vmware/welcome.

Но руками залезать в него не нужно, вместо этого можно использовать расширенную настройку ESXi Advanced Setting, которая называется Annotations.WelcomeMessage. Ее можно изменить с помощью сценария PowerCLI / PowerShell.

Часто администраторам нужно узнать, на каком из хостов находится виртуальная машина, например, это сервер vCenter, который выключен по тем или иным причинам. В этом случае поможет вывод имен виртуальных машин прямо в физическую DCUI консоль сервера ESXi, к которой можно получить доступ напрямую с сервера или по SSH.

Ниже приведен PowerCLI-скрипта для описанного сценария, в котором все просто и понятно относительно того, как устанавливается рассмотренная выше расширенная настройка для вывода количества и списка виртуальных машин:

Connect-VIServer -Server 192.168.1.50 -User root -Password vmware123

$vms = Get-View -ViewType VirtualMachine -Property Name

$DCUIString = "{color:yellow}
{esxproduct} {esxversion}

Hostname: {hostname}
IP: {ip}

Virtual Machines: " + $vms.Count + "
{/color}
{color:white}
"

foreach ($vm in $vms) {
$DCUIString += "`t`t" + $vm.Name + "`n"
}

Set-VMHostAdvancedConfiguration -Name Annotations.WelcomeMessage -Value $DCUIString

Disconnect-VIServer -Confirm:$false

Конечно же, если у вас много виртуальных машин на хосте, то они просто не влезут на приветственный экран ESXi, но 15 виртуальных машин у Вильяма влезли без проблем:

Кстати, если вы хотите вывести только включенные виртуальные машины, то вы можете просто добавить фильтр:

-Filter @{"Runtime.PowerState" = "PoweredOn"} 

в конце строчки, где используется командлет Get-View.


Таги: VMware, ESXi, PowerCLI, VMachines, Blogs

Диаграмма портов и соединений в среде сетевой виртуализации VMware NSX.


В крупных компаниях, где виртуальная инфраструктура является основой всего ИТ, иногда используется продукт VMware NSX для виртуализации и агрегации сетей виртуальных (на базе vSphere) и физических сред. Напомним, что с 3 мая этот продукт также стал доступен в трех изданиях, что позволит приобретать его и небольшим компаниям в базовом издании Standard.

Ниже вы можете посмотреть и сохранить диаграмму портов и соединений инфраструктуры VMware NSX, которая поможет в планировании развертывания решения, а также в его обслуживании и поддержке.

Вот эти порты, протоколы и коммуникации для компонентов NSX:

  • Client PC > NSX Manager 443/TCP (NSX Manager Administrative Interface)
  • Client PC > NSX Manager 80/TCP (NSX Manager VIB Access)
  • ESXi Host > ESXi Host 6999/UDP (ARP on VLAN LIFs)
  • ESXi Host > NSX Controller 1234/TCP (User World Agent Connection)
  • ESXi Host > NSX Manager 5671/TCP (AMQP)
  • ESXi Host > NSX Manager 8301, 8302/UDP (DVS Sync)
  • ESXi Host > vCenter Server 80/TCP (ESXi Host Preparation)
  • NSX Controller > NSX Controller 2878, 2888, 3888/TCP (Controller Cluster – State Sync)
  • NSX Controller > NSX Controller 30865/TCP (Controller Cluster -State Sync )
  • NSX Controller > NSX Controller 7777/TCP (Inter-Controller RPC Port)
  • NSX Controller > NTP Time Server 123/TCP (NTP client connection)
  • NSX Controller > NTP Time Server 123/UDP (NTP client connection)
  • NSX Manager > DNS Server 53/TCP (DNS client connection)
  • NSX Manager > DNS Server 53/UDP (DNS client connection)
  • NSX Manager > ESXi Host 443/TCP (Management and provisioning connection)
  • NSX Manager > ESXi Host 8301, 8302/UDP (DVS Sync)
  • NSX Manager > ESXi Host 902/TCP (Management and provisioning connection)
  • NSX Manager > NSX Controller 443/TCP (Controller to Manager Communication)
  • NSX Manager > NTP Time Server 123/TCP (NTP client connection)
  • NSX Manager > NTP Time Server 123/UDP (NTP client connection)
  • NSX Manager > Syslog Server 514/TCP (Syslog connection)
  • NSX Manager > Syslog Server 514/UDP (Syslog connection)
  • NSX Manager > vCenter Server 443/TCP (vSphere Web Access)
  • NSX Manager > vCenter Server 902/TCP (vSphere Web Access)
  • REST Client > NSX Manager 443/TCP (NSX Manager REST API)
  • vCenter Server > ESXi Host 80/TCP (ESXi Host Preparation)
  • vCenter Server > NSX Manager 80/TCP (Host Preparation)
  • VTEP > VTEP 8472/UDP (Transport network encapsulation between VTEPs.)

Таги: VMware, NSX, Poster, Networking, vNetwork, Enterprise

Полезный документ "StarWind Storage Appliance Overview".


Компания StarWind Software, выпускающая лучший продукт Virtual SAN для создания отказоустойчивых хранилищ под виртуализацию VMware и Microsoft, выпустила интересный документ "StarWind Storage Appliance Overview".

StarWind Storage Appliance - это готовый к развертыванию инфраструктуры хранилищ для гипервизоров VMware ESXi и Microsoft Hyper-V программно-аппаратный комплекс, который можно просто масштабировать по емкости путем приобретения новых узлов, при этом обеспечивается отказоустойчивость всей подсистемы хранения:

Более подробно о таких функциях StarWind Storage Appliance, как файловая система Log-Structured File System (LSFS), серверное кэширование, дедупликация, компрессия данных при передаче, асинхронная репликация и многое другое, вы можете прочитать в документе, а также по этой ссылке.


Таги: StarWind, Storage, Appliance, Whitepaper

VMware ESXi 6.0 - создание на одном диске (LUN) нескольких разделов и томов VMFS.


Зачастую в тестовом окружении вам нужно создать несколько томов VMFS (например, для тестирования технологии Storage DRS и создания кластера хранилищ), но диск на машине только один. В этом случае можно вручную нарезать этот диск на разделы и отформатировать их в тома VMFS 5, которые будут использоваться в качестве виртуальных хранилищ.

Для этих целей можно использовать 2 утилиты, входящие в состав VMware ESXi 6 - PartedUtil и vmkfstools. Помните, что метод, изложенный ниже, не поддерживается для производственных систем. Используйте его только в тестовом окружении!

Итак, заходим на хост ESXi, напрямую или по SSH. Сначала нужно найти имя устройства. Для этого можно воспользоваться командой:

fdisk –l

Либо для подробной информации можно взять следующую:

esxcli storage core path list

В качастве вывода мы получим что-то вроде этого:

sata.vmhba34-sata.0:0-t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288
UID: sata.vmhba34-sata.0:0-t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288
Runtime Name: vmhba34:C0:T0:L0
Device: t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288
Device Display Name: Local ATA Disk (t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288)
Adapter: vmhba34
Channel: 0
Target: 0
LUN: 0
Plugin: NMP
State: active
Transport: sata
Adapter Identifier: sata.vmhba34
Target Identifier: sata.0:0
Adapter Transport Details: Unavailable or path is unclaimed
Target Transport Details: Unavailable or path is unclaimed
Maximum IO Size: 33553920

Можно сделать это и из vSphere Client:

Далее получаем таблицу разделов следующей командой (имя диска берем из поля Device):

partedUtil getptbl "t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288"

Диск этот пуст, и мы получим примерно такой вывод:

msdos
29185 255 63 468862128

Например, вы хотите создать на этом диске 5 разделов (LUN) по 10 ГБ каждый. При размере сектора 512 байт, размер каждого такого диска будет 20971519 секторов. При этом первые 2048 секторов диска надо пропустить, чтобы оставить место под GPT-таблицу и выровнять разделы по лучшим практикам (под 512-байтные секторы).

Получаем следующий план разбиения разделов с номерами начальных и конечных секторов:

P1 2048-20973567
P2 20973568-41945087
P3 41945088-62916607
P4 62916608-83888127
P5 83888128-104859647

Претворяем его в жизнь с помощью partedUtil:

partedUtil setptbl "t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288" gpt "1 2048 20973567 AA31E02A400F11DB9590000C2911D1B8 0" "2 20973568 41945087 AA31E02A400F11DB9590000C2911D1B8 0" "3 41945088 62916607 AA31E02A400F11DB9590000C2911D1B8 0" "4 62916608 83888127 AA31E02A400F11DB9590000C2911D1B8 0" "5 83888128 104859647 AA31E02A400F11DB9590000C2911D1B8 0" 

Что такое "AA31E02A400F11DB9590000C2911D1B8" в данной команде? Это GUID разделов VMFS.

Далее с помощью partedUtil getptbl или другой команды выведем список разделов и получим следующее:

gpt
29185 255 63 468862128
1 2048 20973567 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
2 20973568 41945087 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
3 41945088 62916607 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
4 62916608 83888127 AA31E02A400F11DB9590000C2911D1B8 vmfs 0
5 83888128 104859647 AA31E02A400F11DB9590000C2911D1B8 vmfs 0

Разделы созданы, осталось отформатировать их под VMFS 5. Для этого воспользуемся утилитой vmkfstools и создадим Datastore 1 на первом разделе диска:

vmkfstools -C vmfs5 -S Datastore1 t10.ATA_____WDC_WD10EALX2D009BA0__________________________WD2DWCATR6576288:1

Аналогичные действия нужно будет проделать и с оставшимися четырьмя датасторами, после чего они станут видны в клиенте vSphere. Более подробно о процедуре изложено в KB 1009829.


Таги: VMware, VMFS, Storage, ESXi, Обучение, Blogs

Окончательный конец "толстого" VMware vSphere C# Client.


Компания VMware на днях распространила официальную информацию о том, что клиент vSphere Client, написанный на C#, не будет выпущен для следующей версии платформы vSphere (вероятно, седьмой). Вместо него будут использоваться средства управления на базе двух следующих веб-платформ:

  • VMware vSphere HTML5 Web Client для управления инфраструктурой виртуализации через VMware vCenter (о нем мы писали вот тут). Он построен на базе технологии HTML5 и полностью заменяет собой функционал тонкого клиента VMware vSphere Web Client, который сейчас работает на основе тормозной технологии Adobe Flex (он же Flash). Он включает в себя консоли Platform Services Controller UI и vCenter Server Appliance Management UI.

Причины окончательного перехода на тонкие клиенты со стороны VMware очевидны - трудно поддерживать и тонкий, и толстый клиенты в рамках одного набора функционала, который у VMware очень и очень широкий. Многие из вас помнят, как VMware долгое время не могла включить Update Manager в состав Web Client, так как функционал там достаточно сложные. Ну и плюс к этому все больше пользователей управляют сервисами vCenter с маков, а также мобильных устройств - планшетов и телефонов, где полноценного толстого клиента просто нет. Ожидается, что тонкий клиент HTML5 будет поддерживать также и мобилки (на данный момент эта поддержка сильно ограничена).

Самое интересное в этом то, что прямо сейчас VMware не имеет релизной версии HTML5 Web Client, а только некий продукт, находящийся в статусе Technical Preview на сайте проекта VMware Labs (который, однако, весьма часто обновляется и поддерживается). Обещают, что в новой версии платформы клиент на базе HTML5 будет уже полностью готов, и переход на него пройдет безболезненно, но мы-то с вами знаем, что это не так. Новые пользователи обязательно выступят "тестировщиками" первой версии продукта. Кроме того, каков бы ни был тонкий клиент на HTML5, он все равно не будет работать так быстро, как C#-клиент, к которому привыкли многие пользователи.

Как раз вокруг этого и развернулась нешуточная дискуссия вот в этом посте, где недовольные администраторы жалуются на поведение VMware. В частности, среди минусов приводится неунифицированная среда Host Client и HTML5 Client, возможные проблемы совместимости в разных версиях браузеров, замороченность и сложность пользовательского интерфейса Web Client и прочее. И они правы - проблемы неизбежны. Например, у меня вечером обновился Google Chrome, а утром я узнал, что управление виртуальными машинами у меня в корпоративной инфраструктуре из 1000 хостов не работает.


Таги: VMware, vSphere, Client, Update, Web Client, HTML5, Blogs

Плагин sshAutoConnect для vCenter - быстрое соединение с хостами по SSH.


Если вы часто заходите на хост-серверы VMware ESXi по SSH, то вам может оказаться полезным плагин sshAutoConnect для vCenter, который позволяет добавить соответствующий пункт в контекстное меню vSphere Client для хостов ESXi.

Плагин sshAutoConnect состоит из двух файлов - xml, который определяет конфигурацию плагина, и, собственно, dll-библиотека с плагином. Инсталляция плагина проста - нужно положить эти два файла в отдельную папку в папке плагинов vCenter по адресу:

C:\Program Files (x86)\VMware\Infrastructure\Virtual Infrastructure Client\Plugins

Далее просто идете в vSphere Client в раздел плагинов Plug-ins > Manage Plug-ins… и активируете плагин:

Для конфигурации используется файл sshAutoConnect.xml, выглядит он примерно так:

<?xml version="1.0" encoding="utf-8" ?>
  
<credentials>
<default>
<login>root</login>
<password>d3d3LnZtZHVkZS5mcg==</password>
</default>
<custom_servers>
<server name="server-esx-01.vmdude.fr"> <login>root</login>
<password>d3d3Lmh5cGVydmlzb3IuZnI=</password> </server>
<server name="server-esx-02.vmdude.fr"> <login>root</login>
<password>d3d3LnZtd2FyZS5mcg==</password> </server>
</custom_servers>
</credentials>

sshAutoConnect соединяется с хостами ESXi по логину и паролю, указанному в секции <default>, но если в разделе <custom_servers> есть логин и проль для конкретного хоста - будут использованы эти данные. Пароли тут записаны в виде base64, о том, как их получать написано вот тут.

Ну и загрузить плагин sshAutoConnect вместе с исходным кодом можно с репозитория на GitHub по этой ссылке.


Таги: VMware, ESXi, SSH, VMachines, vSphere, Blogs

Как теперь работает технология дедупликации страниц памяти Transparent Page Sharing в vSphere 6.0.


Какое-то время назад мы писали о том, что технология дедупликации страниц памяти Transparent Page Sharing (TPS) с приходом больших страниц памяти становится ненужной (а в последних версиях vSphere и вовсе она отключена). Но это не значит, что сейчас TPS нигде не используется совсем - ведь большие страницы, при условии недостатка ресурсов памяти на хост-сервере, гипервизор ESXi может разламывать на маленькие, после чего дедуплицировать их.

Между тем, в последних релизах VMware vSphere, включая ESXi 6.0, появилась более гранулярная модель управления механизмом TPS, который можно задействовать для отдельных групп виртуальных машин (например, серверы обрабатывающие одни и те же данные, где вероятность дубликатов страниц высока). Называется этот механизм Salting (хэширование с солью).

Как известно, TPS производит хэширование страниц памяти виртуальных машин, после чего происходит сравнение хэшей на предмет их совпадения. Если они совпадают, то начинается побитовое сравнение этих страниц памяти, чтобы исключить ложное срабатывание дедупликации страниц (потому что, как известно, у двух разных исходных строчек теоретически может быть один хэш).

Если страницы полностью совпадают - вносятся изменения в таблицу страниц памяти, где для второй копии ставится просто ссылка на первую, а физически вторая копия страницы уничтожается.

При любой попытке записи в такую страницу со стороны виртуальной машины - мгновенно создается ее физическая копия с помощью механизма copy-on-write (CoW), и она уже перестает быть шаренной (каждая машина начинает использовать свою копию).

Так вот в последних версиях VMware vSphere механизм TPS работает не так просто. По умолчанию используется Salting, а в качестве этой самой соли используется UDID виртуальной машины, который всегда уникален для данного сервера vCenter. То есть перед снятием хэша со страницы памяти происходит добавление соли к исходным данным, а поскольку соль одинакова только для конкретной ВМ, то и дедупликация страниц со стороны TPS происходит только на уровне отдельной виртуальной машины (Intra-VM TPS).

Механизм Salting используется по умолчанию, начиная со следующих версий гипервизоров:

  • ESXi 5.0 Patch ESXi500-201502001
  • ESXi 5.1 Update 3
  • ESXi 5.5, Patch ESXi550-201501001
  • ESXi 6.0

Управлять этим механизмом можно из расширенных настроек хоста VMware ESXi (Advanced Settings, раздел Mem). По умолчанию используется расширенная настройка Mem.ShareForceSalting в значении 2. Это означает, что salting включен и работает Intra-VM TPS.

Если же мы поставим эту настройку в значение 0, как на рисунке выше, то соль перестанет добавляться к хэшу при работе алгоритма TPS, а значит он будет работать для всех виртуальных машин на хосте (Inter-VM TPS).

Ну и, как становится понятным, TPS можно включить для отдельной группы виртуальных машин на хосте ESXi, для чего нужно использовать одинаковую соль для этих виртуальных машин. Для этого в расширенных настройках виртуальной машины нужно добавить параметр sched.mem.pshare.salt с одинаковым значением у всех нужных вам ВМ (это также можно сделать и в vmx-файле).

В этом случае значением настройки Mem.ShareForceSalting должно быть 1 или 2 (разницы тут особой нет, кроме того, что если у вас используется значение 1, то при отсутствии соли включится Inter-VM sharing).

Ну и в таблице ниже приведем различия в работе алгоритма TPS для различных значений Mem.ShareForceSalting и в зависимости от заполненности sched.mem.pshare.salt для виртуальных машин.

Значение Mem. ShareForceSalting (настройка уровня хоста)

Значение sched.mem.pshare.salt (настройка уровня ВМ)

vc.uuid (свойство ВМ)

Значение соли в настройках ВМ

TPS между виртуальными машинами (Inter-VM)

TPS внутри каждой из ВМ (Intra-VM)

0

Игнорируется

Игнорируется

0

Да, между всеми машинами на хосте

Да

1

Установлено

Игнорируется

Используется sched.mem.pshare.salt

Только между ВМ с одинаковой солью

Да

1

Не установлено

Игнорируется

0

Да, между всеми машинами на хосте

Да

2

Установлено

Игнорируется

sched.mem.pshare.salt

Только между ВМ с одинаковой солью

Да


(по умолчанию)

Не установлено (по умолчанию)

Используется

Используется vc.uuid

No inter-VM TPS

Да

2

Не установлено

Отсутствует по какой-либо причине

Используется случайный номер для каждой ВМ

No inter-VM TPS

Да

Для более детальной информации вы можете обратиться к статье KB 2097593.


Таги: VMware, vSphere, Memory, Обучение, TPS, Performance, ESXi, VMachines

Обновления vSphere HTML5 Web Client - версии 1.3 и 1.4.


На прошлой неделе компания VMware обновила не только клиент для управления хостами VMware ESXi Embedded Host Client до версии 8, но и выпустила обновление нового тонкого клиента для управления виртуальной инфраструктурой vSphere HTML5 Web Client 1.4. Напомним, что в конце апреля мы уже писали про новые возможности версии HTML5 Web Client 1.2, а ниже рассмотрим новые возможности сразу двух версий - 1.3 и 1.4, которые были выпущены с очень небольшим интервалом совсем недавно.

Итак, что нового в vSphere HTML5 Web Client 1.3/1.4:

  • Теперь при создании виртуальной машины можно выбрать кластер хранилищ (datastore cluster) в качестве хранилища ВМ (но пока нельзя отключить DRS).
  • Возможность загрузить файл на Datastore ([Datastore] -> Manage -> Files). При этом не требуется Client Integration Plugin.
  • Виртуальные машины теперь можно мигрировать между пулами ресурсов (Resource Pools).
  • Лучше стало работать добавление устройств к виртуальной машине - теперь есть единое меню.
  • Имена файлов самого виртуального модуля теперь отражают версии клиента (OVA и RPM).
  • В Inventory теперь больше информации о виртуальных сервисах vApps.
  • Появилась возможность редактирования настроек SCSI-контроллера.
  • Появилась возможность горячего удаления CD/DVD-приводов.
  • Также было исправлено несколько серьезных багов, список которых приведен вот тут.

Скачать последнюю версию vSphere HTML5 Web Client 1.4 можно по этой ссылке.


Таги: VMware, Web Client, Update, Labs, vSphere

Вышла новая версия VMware ESXi Embedded Host Client v8.


Мы уже много писали про клиент для управления хост-серверами VMware ESXi Embedded Host Client, который поставляется в виде виртуального модуля, доступного на сайте проекта VMware Labs. Начиная с версии VMware vSphere 6.0 Update 2, он вошел в стандартную поставку ESXi (клиент седьмой версии). Но сам Embedded Host Client продолжает также развиваться и как отдельный проект. На днях было выпущено обновление - VMware ESXi Embedded Host Client v8.

Посмотрим на основной список новых возможностей Host Client:

  • Основное
    • Таблицы (гриды) теперь с фильтрами/поиском и подсветкой по паттерну поиска.
    • Большинство таблиц поддерживает контекстное меню по правой кнопке для колонок.
    • Автоисправление конфигурации прокси, когда обнаруживаются конфликты путей.
    • Улучшенная обработка малоразмерных отображений консоли.
    • Исправления приветственной страницы: нет ошибки JSON Parse error, поддержка директив {ignore}{/ignore} и {accept}Message beside checkbox{/accept} (для того, чтобы заставить пользователя принять условия показываемого при логине сообщения). Делается это в файле /etc/vmware/welcome.
    • Улучшения отображения интерфейса в разделе производительность: поиск/фильтры, улучшенное отображение линий и т.п.
  • Хост ESXi
    • Поддержка опций VSAN maintenance mode.
    • Фиксы багов Advanced Configuration.
    • Улучшенное отображение аппаратных сенсоров.
  • Виртуальные машины
    • Добавление звуковых контроллеров в ВМ.
    • Улучшенная валидация при добавлении последовательных портов.
    • Улучшенный интерфейс для Advanced Settings виртуальной машины.
    • Пофикшены некоторые проблемы при редактировании настроек ВМ на ESXi 5.0.
    • Поддержка добавления/удаления пробрасываемых USB-устройств (passthrough). На данный момент это доступно только для включенных машин.
    • В раздел мониторинга производительности были добавлены подразделы Disk и Network.
    • Теперь можно импортировать OVA любого размера + мастер стал удобнее и быстрее.
    • Больше функций по отсылке комбинаций клавиш в гостевую ОС (Ctrl-c, например).
    • Доступ к меню действий, когда консоль находится в полноэкранном режиме.
    • Возможность загрузки VMRC-консоли напрямую с хоста ESXi.
    • Пофикшен баг с отображением представления VM summary, которое запрашивало пароль.
    • Пофикшен баг при изменении масштаба консоли.
    • Поддержка португальской клавиатуры.
    • Отображение полной информации об IP-конфигурации ВМ в summary.
  • Хранилища
    • Поддержка конфигурации software iSCSI: Enable/disable, Authentication settings, Advanced configuration, Add/remove port bindings, Add/remove static targets, Add/remove dynamic targets.
    • Отображение статуса устройства (включая условия ошибок iSCSI) теперь более очевидно - она на иконке в таблице устройств.
  • Сеть
    • Возможность изменения MTU для интерфейса VMkernel.
    • Улучшенная работа с правилами фаервола.
    • Пофикшен баг с редактированием интерфейсов VMkernel для ESXi 5.5.

Скачать VMware ESXi Embedded Host Client v8 можно по этой ссылке.


Таги: VMware, ESXi, Client, Update, Labs

Новые издания VMware NSX - теперь и для небольших компаний, а также VDI-сред.


Некоторые из вас слышали о продукте VMware NSX, которые представляет собой платформу для виртуализации сетей виртуальных (на базе vSphere) и физических сред, которая ранее была доступна только для крупных предприятий ввиду своей высокой цены.

С 3 мая компания VMware решила изменить этот подход, представив решение NSX в трех изданиях - Standard, Advanced и Enterprise. Теперь и небольшие компании смогут использовать издание Standard за меньшую цену и постепенно расти до издания Enteprise, если возникнет потребность в большем функционале платформы.

Все три издания лицензируются по физическим процессорам серверов (чтобы соответствовать изданиям VMware Virtual SAN), однако издание Advanced лицензируется также и по пользователям, чтобы NSX было удобно применять в VDI-средах.

В целом издания VMware NSX можно описать так:

  • Standard - это базовые возможности распределенной коммутации и маршрутизации, которые подходят для совместного использования с vSphere Standard. Вы сможете создавать сети VXLAN в виртуальной инфраструктуре и соединять их с физической сетью предприятия с помощью NSX Edge, но остальные интересные возможности NSX будут недоступны, так как Distributed Firewalling и балансировка нагрузки. Также доступна интеграция с OpenStack через API.
  • Advanced - это уже более интересное издание, здесь уже есть интеграция с Active Directory и такие компоненты, как Edge load balancing и Distributed Firewall. Но здесь еще нет возможностей VPN и поддержки нескольких сайтов со своими vCenter. Это издание подойдет большинству пользователей, у которых есть только один датацентр. Также его удобно использовать для создания сетевой платформы инфраструктуры виртуальных ПК.
  • Enterprise - это полнофункциональное издание для большой сетевой инфраструктуры, а также предприятий с несколькими ЦОД, в которых присутствует несколько серверов vCenter, объединенных между собой. Тут также присутствуют функции распределенной балансировки (пока только в режиме Tech Preview).

Приведем ниже полное сравнение возможностей изданий VMware NSX 6.2, а краткое доступно вот тут.

NSX for vSphere 6.2

Возможность

Standard

Advanced

Enterprise

Hypervisors supported

ESXi 5.5

ESXi 6.0

vCenter 5.5

vCenter 6.0

Cross vCenter Networking & Security

Controller Architecture

NSX Controller

Universal Controller for X-VC

Optimized ARP Learning, BCAST supression

Switching

Encapsulation Format

 

 

 

VXLAN

Replication Mode for VXLAN

 

 

 

Multicast

Hybrid

Unicast

Overlay to VLAN bridging

 

 

 

SW Bridge (ESXi-based)

Hardware VTEP (OVSDB) with L2 Bridging

Universal Distributed Logical Switching (X-VC)

Multiple VTEP Support

Routing

Distributed Routing (IPv4 Only)

 

 

 

Distributed Routing - Static

Distributed Routing - Dynamic Routing with BGP

Distributed Routing - Dynamic Routing with OSPF

Equal Cost Multi-Pathing with Distributed Routing

Universal Distributed Logical Router (X-VC)

Dynamic Routing without Control VM (Static Only)

Active-standby Router Control VM

Edge Routing (N-S)

 

 

 

Edge Routing Static - IPv4

Edge Routing Static - IPv6

Dynamic Routing with NSX Edge (BGP) IPv4

Dynamic Routing with NSX Edge (OSPFv2) IPv4

Equal Cost Multi-Pathing with NSX Edge

Egress Routing Optimization in X-VC

DHCP Relay

Active-Standby NSX Edge Routing

VLAN Trunk (sub-interface) support

VXLAN Trunk (sub-interface) support

Per Interface RPF check on NSX Edge

Services

NAT Support

 

 

 

NAT Support for NSX Edge

Source NAT

Destination NAT

Stateless NAT

ALG Support for NAT

DDI

 

 

 

DHCP Server

DHCP Relay

DNS Relay

VPN

 

 

 

IPSEC VPN

SSL VPN

L2 VPN (L2 extension with SSL VPN)

802.1Q Trunks over L2 VPN

Security

 

 

 

Firewall - General

 

 

 

Single UI for Firewall Rule Enforcement - NS+ EW

Spoofguard

Firewall Logging

Rule Export

Auto-save & Rollback of Firewall rules

Granular Sections of Firewall rule table

Distributed Firewall

 

 

 

DFW - L2, L3 Rules

DFW - vCenter Object Based Rules

Identity Firewall Rules (AD Integration)

IPFix Support for DFW

Context-based control of FW enforcement 
(applied to objects)

Edge Firewall

Edge High-Availability

Service Composer

 

 

 

Security Policy

Security Tags

vCenter Object based security groups

IPSet, MACset based security groups

Data Security

Scan Guest VMs for Sensitive Data

Third Party Integration

 

 

 

Endpoint Service Insertion - Guest Introspection

 

Network Service Insertion

Public API based Integration

 

Load-Balancing

Edge Load-Balancing Protocols

 

 

 

TCP (L4 - L7)

UDP

FTP

HTTP

HTTPS (Pass-through)

HTTPS (SSL Termination)

LB Methods

Round Robin

Src IP Hash

Least Connection

URI, URL, HTTP (L7 engine)

vCenter Context-aware LB

L7 Application Rules

Health Checks

TCP

ICMP

UDP

HTTP

HTTPS

Connection Throttling

High-Availability

Monitoring

View VIP/Pool/Server Objects

View VIP/Pool/Server Stats

Global Stats VIP Sessions

Distributed Load-Balancing

 

 

 

L4 Load-balancing

(tech-preview)

Health checks

(tech-preview)

Operations / Tools

Tunnel Health Monitoring

TraceFlow

Port-Connections Tool

Server Activity Monitoring

Flow Monitoring

IPFix (VDS Feature)

VMware Tools

 

 

 

vR Operations Manager

vR Log Insight

Cloud Management Platform

vRealize Automation

 

 

 

Logical Switch Creation

Distributed router creation

Distributed firewall security consumption

Load-balancing consumption

App Isolation

VMware Integrated OpenStack (Neutron Plugin)

 

 

 

VLAN Provider Networks

Overlay Provider Networks

Overlay Tenant Networks

Metadata Proxy Service

DHCP Server

Neutron Router - Centralized - Shared

Neutron Router - Centralized - Exclusive

Neutron Router - Distributed

Static Routes on Neutron Router

Floating IP Support

-NAT Neutron Routers

Neutron Security Groups using Stateful Firewall

Port Security

Neutron L2 Gateway

Load Balancing (LBaaS)

Admin Utility ( Consistency Check, Cleanup)

Cross VC Logical Networking and Security

 


Таги: VMware, NSX, Licensing, Update, Networking

Как VMware HA и Virtual SAN обрабатывают изоляцию площадки для виртуальных машин.


Интересный пост написал Duncan Epping о растянутом кластере (Stretched Cluster) Virtual SAN и обработке события изоляции площадки механизмами HA и VSAN. Изложим тут его вкратце.

Как вы знаете, растянутый кластер Virtual SAN состоит из трех компонентов - две площадки с хранилищами VSAN и виртуальными машинами и одна площадка, выступающая как "свидетель" (Witness) и необходимая для принятия решения о том, какая площадка выпала из внешнего мира (то есть с ней нет связи), а какая способна продолжать поддерживать работу виртуальных машин (как в плане хранения, так и в плане исполнения на вычислительных ресурсах хостов).

Таким образом, обычно схема растянутого кластера выглядит так:

Теперь, допустим, на основной площадке (Site 1) произошла авария - и хосты ESXi с виртуальными машинами стали частично или полностью недоступны. При этом теряется ее связь как со второй площадкой (Site 2), так и с компонентом Witness на третьей площадке.

В этом случае происходит следующее:

  • Хосты площадки Site 1 имеют связь между собой, события внутренней изоляции не происходит, поэтому HA не реагирует на ситуацию.
  • Однако кластер Virtual SAN понимает, что площадка Site 1 изолирована от Site 2 и Witness (нет кворума), а значит и от внешнего мира, поэтому принимает решение выключить виртуальные машины. Это поведение можно изменить, установив расширенную настройку VSAN.AutoTerminateGhostVm в значение 0 (но делать это не рекомендуется).
  • На второй площадке (Site 2) происходят выборы нового Master-узла в кластере VMware HA. Этот узел сверяется со списком protectedlist (в нем пока нет машин из Site 1), добавляет новые ВМ туда и берет на себя владение машинами с первого узла, так как теперь есть кворум у второй площадки. Что такое кворум? Это 2 компонента из трех (большинство) в растянутом кластере - сама эта площадка и компонент Witness (они видят связь друг с другом). Таким образом, VMware HA на второй площадке начинает восстановление виртуальных машин первого сайта.
  • Как VMware HA убеждается, что на первой площадке эти машины выключены? Да никак - просто по дизайну заложено, что кластер Virtual SAN в случае изоляции площадки Site 1 потушит все ее виртуальные машины, поэтому владение этими машинами перейдет ко второй площадке.

Ну и, конечно же, тут нельзя не порекомендовать интереснейший документ VMware vSphere 6.x HA Deepdive, в котором есть все ответы на подобные вопросы.


Таги: VMware, HA, Stretched, Virtual SAN, VSAN, Blogs, vSphere, ESXi

Три скрытых возможности нового vSphere HTML5 Web Client.


платформой vSphere - HTML5 Web Client 1.1. Эта версия заменит собой текущий Web Client, который сейчас работает на основе тормозной технологии Adobe Flex.

Оказывается в HTML5 Web Client есть три скрытых возможности, о которых написал Emad Younis, и которые, видимо, еще находятся не в очень стабильном состоянии, поэтому разработчики решили отключить их. Но так как вы используете новый клиент только в целях тестирования - то давайте включим их и посмотрим, что это за фичи.

1. Итак, заходим на vSphere HTML5 Web Client Fling Appliance по SSH.

2. Переходим в папку /etc/vmware/vsphere-client/vsphereFeatures:

# cd /etc/vmware/vsphere-client/vsphereFeatures

3. Находим там файл vsphereFeatures.cfg и открываем его для редактирования в редакторе vi:

# vi vsphereFeatures.cfg

4. Видим там, что некоторые 3 фичи настроены в состояниях disabled. Это:

  • Datastore File Browser
  • Add Host Wizard
  • Network Selector

5. Включим какую-нибудь из них, например, файловый браузер:

6. Перезапустим веб-службы Web Client следующей командой:

# /etc/init.d/vsphere-client restart

7. Теперь зайдем в консоль веб-клиента по адресу:

https://<имя или IP модуля>:9443/ui

И перейдем в раздел Datastore –> Manage –> Files, там мы и увидим файловый браузер:

8. Теперь запустим Add Host Wizard для добавления нового хост-сервера VMware ESXi в кластер:

И попробуем добавить новый хост:

9. Ну а расширенный выбор VM Network находится в настройках виртуальной машины VM –> Network Adapter –> Network drop down –> Show more networks:

Скорее всего, эти 3 фичи появятся в следующей версии HTML5 Web Client, а ждать ее осталось недолго. Но ведь и там будет файлик vsphereFeatures.cfg, в котором можно будет взглянуть на следующие новые возможности нового поколения тонкого клиента VMware vSphere.


Таги: VMware, Web Client, Update, vSphere, ESXi, Обучение, Blogs

Скрипт PowerCLI для включения/отключения SSH на уровне кластера для всех хостов VMware ESXi.


Все администраторы знают, как включать и отключать доступ по SSH на хостах ESXi. Однако часто в административных целях требуется перещелкнуть этот сервис не только на одном хост-сервере, а в пределах целого кластера VMware HA/DRS для выполнения комплекса задач на нескольких хостах. В этом случае поможет скрипт PowerCLI, который написал David Ring.

Сначала вводите IP-адрес сервера vCenter, логин и пароль администратора, ну а потом сценарий запросит имя кластера в котором вы хотите включить/отключить доступ к серверам по SSH:

Когда вы закончите проведение необходимых операций в консоли хостов ESXi по SSH, запустите скрипт повторно для отключения SSH в целях безопасности:

Ну и, собственно, сам скрипт PowerCLI:

########### vCenter Connectivity Details ###########

Write-Host “Please enter the vCenter Host IP Address:” -ForegroundColor Yellow -NoNewline
$VMHost = Read-Host
Write-Host “Please enter the vCenter Username:” -ForegroundColor Yellow -NoNewline
$User = Read-Host
Write-Host “Please enter the vCenter Password:” -ForegroundColor Yellow -NoNewline
$Pass = Read-Host
Connect-VIServer -Server $VMHost -User $User -Password $Pass

########### Please Enter the Cluster to Enable SSH ###########

Write-Host “Clusters Associated with this vCenter:” -ForegroundColor Green
$VMcluster = ‘*’
ForEach ($VMcluster in (Get-Cluster -name $VMcluster)| sort)
{
Write-Host $VMcluster
}
Write-Host “Please enter the Cluster to Enable/Disable SSH:” -ForegroundColor Yellow -NoNewline
$VMcluster = Read-Host

########### Enabling SSH ###########

Write-Host “Ready to Enable SSH? “ -ForegroundColor Yellow -NoNewline
Write-Host ” Y/N:” -ForegroundColor Red -NoNewline
$SSHEnable = Read-Host
if ($SSHEnable -eq “y”) {
Write-Host “Enabling SSH on all hosts in your specified cluster:” -ForegroundColor Green
Get-Cluster $VMcluster | Get-VMHost | ForEach {Start-VMHostService -HostService ($_ | Get-VMHostService | Where {$_.Key -eq “TSM-SSH”})}
}

########### Disabling SSH ###########

Write-Host “Ready to Disable SSH? “ -ForegroundColor Yellow -NoNewline
Write-Host ” Y/N:” -ForegroundColor Red -NoNewline
$SSHDisable = Read-Host
if ($SSHDisable -eq “y”) {
Write-Host “Disabling SSH” -ForegroundColor Green
Get-Cluster $VMcluster | Get-VMHost | ForEach {Stop-VMHostService -HostService ($_ | Get-VMHostService | Where {$_.Key -eq “TSM-SSH”}) -Confirm:$FALSE}

}

Скачать скрипт можно по этой ссылке (уберите расширение doc и добавьте .ps1).


Таги: VMware, vSphere, PowerCLI, Security, Troubleshooting, ESXi

Обновленная версия vSphere HTML5 Web Client 1.1 - новые возможности.


Недавно мы писали про превью vSphere HTML5 Web Client, представляющего собой тонкий клиент на основе технологии HTML 5, который вскоре заменит устаревший Web Client на базе Adobe Flex. На днях VMware обновила версию этого продукта до 1.1, которая доступна для загрузки на сайте проекта VMware Labs.

Посмотрим на новые возможности vSphere HTML5 Web Client 1.1:

  • Добавление нового CD/DVD-привода к новой или существующей виртуальной машине.
  • Добавление сетевого адаптера к новой или существующей ВМ.
  • Добавление жесткого диска к новой или существующей ВМ.
  • Создание виртуальной машины из представления кластера.
  • Перенос ВМ в кластере за счет vMotion и установление приоритета миграции.
  • Изменение настроек Agent VM на хост-сервере.
  • Просмотр настроек Lockdown Mode в разделе Security Profile на хосте.
  • Просмотр информации о сертификатах на ESXi.
  • Базовый воркфлоу создания нового кластера.
  • Удаление кластера.

Дело идет, но до использования продукта в продакшене еще достаточно далеко. Посмотрите хотя бы историю с веб-клиентом ESXi Embedded Host Client, который появился только в vSphere 6.0 Update 2, а шел к этому 7 месяцев с момента релиза первой версии. Поэтому, как минимум полгода еще придется подождать.

Также в новом веб-клиенте кое-что было улучшено:

  • Операция connect/disconnect сетевого адаптера.
  • Настройка сетевого адаптера при создании новой виртуальной машины.
  • Исправлено множество ошибок.

Скачать vSphere HTML5 Web Client 1.1 в виде готового виртуального модуля OVA (Virtual Appliance) можно по этой ссылке. Инструкции по развертыванию и полезные советы приведены тут.


Таги: VMware, vSphere, Web Client, Update, Labs

Новая бесплатная книга о проектировании виртуальной инфраструктуры: vSphere Design Pocketbook v3.


Известный многим из вас блоггер Фрэнк Деннеман (Frank Denneman) на днях анонсировал третье издание книги о проектировании виртуальной инфраструктуры VMware - vSphere Design Pocketbook v3, которая построена на базе материалов авторов, пишущих о виртуализации в своих блогах или на других ресурсах:

Книга представляет собой сборник статей известных блоггеров и специалистов в области построения виртуальной инфраструктуры, которые широко известны в медиа-пространстве. Среди них такие известные ребята, как William Lam, Matt Leibowitz, Frank Denneman и другие.

Книга доступна бесплатно в электронном виде по этой ссылке, а в печатном виде будет распространяться на конференции EMC World. В книге 157 страниц рекомендаций по дизайну инфраструктуры виртуализации в формате блог-записей, в которых авторы стараются быть максимально конкретными и пишут по сути (со скриншотами, графиками и таблицами).

Ниже содержание книги с указанием авторов соответствующих статей, которые объединены в 7 глав, отражающих основные аспекты проектирования виртуальной инфраструктуры VMware vSphere:

  • Chapter 1 – Host Configuration
    • Host Design – Scale-Up or Scale-Out? (by Rene van den Bedem)
    • VMware ESXi – Async Drivers (by Patrick Schulz)
    • Don’t Forget the Logs (by Steve Wood)
  • Chapter 2 – Cluster and vCenter Design
    • VMware Resource Pools (by Eric Shanks)
    • Tweet Sized Design Recommendation (by Doug Baer)
    • vCenter is Down – Impact on VMware Infrastructure (by Mariusz Kaczorek)
    • Tweet Sized Design Recommendation (by Amit Rathod)
    • Enhanced vMotion Compatibility (EVC) Best Practices (by Dee Abson)
    • What Does Load Balancing the Platform Services Controller Really Give You? (by William Lam)
  • Chapter 3 – Storage Configuration
    • The Ultimate IOPS Cheat Sheet (by Bas van Kaam)
    • Tweet Sized Design Recommendation (by Doug Behr)
    • Determine Your vSphere Storage Needs (by Michael Wilmsen)
    • Tweet Sized Design Recommendation (by Patrick Schulz)
    • vSphere Replication – Consider These Points Before Using It (by Craig Kilborn)
    • Know the Minions by Chethan Kumar
    • Understanding Block Sizes in a Virtualized Environment (by Pete Koehler)
  • Chapter 4 – Network and Security Design
    • vSphere 6.0 – Configure VMware Certificate Authority As A Subordinate CA (by Kyle Jenner)
    • Security Design – ISO27001:2013 (by Larus Hjartarson)
    • NSX Edge vs. Shield Edge (by Anthony Spiteri)
    • vSphere and NFV Tuning Consideration (by Niels Hagoort)
  • Chapter 5 – VM Configuration
    • Safely Check/Remove Orphaned VMDK Files from ESXi (by Myles Gray)
    • Hyper-Threading Gotcha with Virtual Machine vCPU Sizing (by Chris Wahl)
    • Make Sure Time Service for Your vSphere Infrastructure is Robust (by Ather Beg)
    • Containers, VMs and unikernels (by Rutger Kosters)
  • Chapter 6 – Management
    • vRealize Operations Manager 6.2: What to Consider in a vROps Design (by Pietro Piutti)
    • Tweet Sized Design Recommendation (by Andrew Mauro)
    • VCSA vs Windows vCenter – Which One do I Chose, and Why? (by Christian Mohn)
  • Chapter 7 – Words of Wisdom
    • One Weird Trick to Virtualize Monster (VM consultants Hate This) (by Matt Leibowitz)
    • Design Considerations – Words of Wisdom (by Amit Rathod)
    • Tweet Sized Design Recommendation (by Jacob Pennington)
    • Datacenter Management is the Killer Use Case for Big Data Analytics (by Frank Denneman)

Таги: VMware, vSphere, Book, Обучение, Blogs

Наконец-то: вышло превью VMware vSphere HTML5 Web Client.


На протяжении нескольких лет от системных администраторов VMware vSphere постоянно поступают жалобы на низкое быстродействие и глючность тонкого клиента управления платформой - vSphere Web Client. Это неудивительно - ведь веб-клиент vSphere построен на базе фреймворка Adobe Flex (пруф), который вобрал в себя все самые "лучшие" стороны флеш-технологии.

Так вот, время флеша похоже истекает - на сайте проекта VMware Labs появилось превью нового клиента vSphere HTML5 Web Client, построенного на базе новых стандартов HTML 5 и Javascript. Напомним, что флеш плох всего лишь в трех аспектах - производительность, стабильность и безопасность, ну а новый клиент призван все это улучшить.

Клиент vSphere HTML5 Web Client пока поддерживается только для VMware vSphere 6 и более поздних версий. Скажем тут на всякий случай, что этот клиент предназначен для управления виртуальной инфраструктурой только через сервисы VMware vCenter. Если вам нужно управлять отдельным хостом, то используйте ESXi Embedded Host Client, который теперь уже поставляется с vSphere 6.0 Update 2 и более поздними версиями платформы виртуализации.

На данный момент технологическое превью умеет делать следующие вещи:

  • Операции с питанием виртуальных машин (вкл/выкл/приостановка).
  • Изменение настроек ВМ (CPU, память, виртуальные диски).
  • Доступ к консоли виртуальных машин.
  • Страницы информации для хостов и ВМ.
  • Горячая миграция машин между хостами ESXi (без перемещения хранилищ).
  • Клонирование машин и создание шаблонов из ВМ.
  • Создание новой виртуальной машины (пока возможности ограничены).
  • Различные графики производительности для мониторинга и отслеживания событий (Performance charts, Tasks, Events).
  • Представления Global Views (последние задачи, алармы и т.п.).

К сожалению, пока в этом клиенте нет функций vSphere Update Manager (напомним, что и в обычном-то vSphere Web Client они появились спустя оочень долгое время).

Скачать VMware vSphere HTML5 Web Client можно в виде готового к развертыванию виртуального модуля OVA по этой ссылке. Для развертывания тонкого клиента понадобится поколдовать с командной строкой (инструкции доступны здесь), ну а в следующих версиях обещают полноценный GUI.


Таги: VMware, vSphere, Labs, Update, Web Client, Performance

Полезная утилита VMware ESXi SCSI Sense Codes Decoder для поиска проблем с хранилищами.


Интересная и полезная штука обнаружилась на одном из блогов, посвященных технологиям виртуализации - утилита VMware ESXi SCSI Sense Codes Decoder. Она позволяет декодировать сообщения, появляющиеся в файле журнала vmkernel.log, когда что-то идет не так при работе хост-сервера ESXi с хранилищами по протоколу блочного доступа SCSI.

Например, вы видите вот такое сообщение:

2011-04-04T21:07:30.257Z cpu2:2050)ScsiDeviceIO: 2315: Cmd(0x4124003edb00) 0x12, CmdSN 0x51 to dev “naa.[…]” failed H:0x0 D:0x2 P:0x0 Valid sense data: 0x5 0x24 0x0.

Это, на самом деле, 6 статус-кодов (они выделены жирным выше), которые можно разложить следующим образом, подставив значения в форму ESXi SCSI Sense Codes Decoder:

В качестве результата вы получите расшифровку статус-кодов SCSI, которая поможет вам в решении той или иной проблемы:

Пользоваться утилитой ESXi SCSI Sense Codes Decoder можно только онлайн.


Таги: VMware, ESXi, SCSI, Storage, Troubleshooting

Ruby vSphere Console - пример использования для поиска проблем в кластере VMware Virtual SAN.


Некоторые из вас знают, что для поиска и решения проблем в виртуальной инфраструктуры, среди прочих интерфейсов командной строки, есть такой инструмент, как Ruby vSphere Console (RVC).

Используется она достаточно редко, но ниже мы покажем пример ее использования на базе вот этой заметки от Кормака Хогана.

Чтобы запустить Ruby vSphere Console, нужно набрать в командной строке ESXi команду в следующем формате:

rvc [options] [username[:password]@]hostname

Например:

# rvc administrator:vmware@192.168.1.100

После этого появится приглашение ко вводу различных команд:

login as: root
VMware vCenter Server Appliance
administrator@192.168.1.100's password:
Last login: Thu Jul 17 22:29:15 UTC 2014 from 10.113.230.172 on ssh
Last failed login: Fri Jul 18 06:31:16 UTC 2014 from 192.168.1.20 on ssh:notty
There was 1 failed login attempt since the last successful login.
Last login: Fri Jul 18 06:31:35 2014 from 192.168.1.20
vcsa:~ # rvc administrator:vmware@192.168.1.100
0 /
1 192.168.1.100/

Их можно выполнять в рамках следующих пространств имен (namespaces):

Во второй снизу строчке мы видим пространство имен VSAN, относящееся к кластерам хранилищ Virtual SAN. Давайте посмотрим на решение одной проблемки с его помощью.

Допустим, вы увидели в кластере VSAN следующую ошибку в разделе Component Metadata Health:

Invalid state

Согласно вот этой статье KB 2108690, эта ошибка может относиться к физической проблеме с диском - когда процесс выделения физических блоков при сбрасывании их из кэша на диск идет очень медленно. Эта ошибка может свидетельствовать просто о высокой нагрузке на диск, в этом случае она уходит при спаде нагрузки. Но если она повторяется при малой нагрузке - значит с диском явно что-то не так.

В столбце "Component" указан component UUID диска, с которым возникла проблема - но как узнать, на каком хранилище он расположен, в консоли vSphere Web Client? Для этого мы и возьмем Ruby vSphere Console, а именно команду vsan.cmmds_find:

> vsan.cmmds_find 0 -u dc3ae056-0c5d-1568-8299-a0369f56ddc0
---+---------+-----------------------------------------------------------+
   | Health  | Content                                                   |
---+---------+-----------------------------------------------------------+
   | Healthy | {"diskUuid"=>"52e5ec68-00f5-04d6-a776-f28238309453",      |
   |         |  "compositeUuid"=>"92559d56-1240-e692-08f3-a0369f56ddc0", 
   |         |  "capacityUsed"=>167772160,                               |
   |         |  "physCapacityUsed"=>167772160,                           | 
   |         |  "dedupUniquenessMetric"=>0,                              |
   |         |  "formatVersion"=>1}                                      |
---+---------+-----------------------------------------------------------+
/localhost/Cork-Datacenter/computers>

Тут мы видим diskUuid, где расположен проблемный компонент. Найдем теперь символьное имя устройства:

> vsan.cmmds_find 0 -t DISK -u 52e5ec68-00f5-04d6-a776-f28238309453
---+---------+-------------------------------------------------------+
   | Health  | Content                                               |
---+---------+-------------------------------------------------------+
   | Healthy | {"capacity"=>145303273472,                            |
   |         |  "iops"=>100,                                         |
   |         |  "iopsWritePenalty"=>10000000,                        |
   |         |  "throughput"=>200000000,                             |
   |         |  "throughputWritePenalty"=>0,                         |
   |         |  "latency"=>3400000,                                  |
   |         |  "latencyDeviation"=>0,                               |
   |         |  "reliabilityBase"=>10,                               |
   |         |  "reliabilityExponent"=>15,                           |
   |         |  "mtbf"=>1600000,                                     |
   |         |  "l2CacheCapacity"=>0,                                |  
   |         |  "l1CacheCapacity"=>16777216,                         |
   |         |  "isSsd"=>0,                                          |   
   |         |  "ssdUuid"=>"52bbb266-3a4e-f93a-9a2c-9a91c066a31e",   |
   |         |  "volumeName"=>"NA",                                  |
   |         |  "formatVersion"=>"3",                                |
   |         |  "devName"=>"naa.600508b1001c5c0b1ac1fac2ff96c2b2:2", | 
   |         |  "ssdCapacity"=>0,                                    |
   |         |  "rdtMuxGroup"=>80011761497760,                       |
   |         |  "isAllFlash"=>0,                                     |
   |         |  "maxComponents"=>47661,                              |
   |         |  "logicalCapacity"=>0,                                |
   |         |  "physDiskCapacity"=>0,                               |
   |         |  "dedupScope"=>0}                                     |
---+---------+-------------------------------------------------------+
>

В параметре devName мы и видим имя устройства: naa.600508b1001c5c0b1ac1fac2ff96c2b2:2. Найти его можно в консоли vSphere Client можно вот тут:

Более подробно о командах и неймспейсах Ruby Virtual Console написано вот в этом документе.


Таги: VMware, vSphere, Ruby, Console, Troubleshooting, VSAN, Virtual SAN

Улучшения Maintenance Mode в VMware vSphere 6.0 Update 2.


Вчера мы писали о новых возможностях, появившихся в обновленной версии платформы виртуализации VMware vSphere 6.0 Update 2, однако не упомянули интересную деталь, которая важна для пользователей в крупных инфраструктурах.

Когда хост VMware ESXi входит в режим обслуживания (Maintenance Mode), происходит следующее: все виртуальные машины на хосте перемещаются ("эвакуируются") на другие хост-серверы ESXi для того, чтобы по окончании процесса временно вывести хост из состава виртуальной инфраструктуры для манипуляций с ним, без остановки сервисов в виртуальных машинах.

Но суть улучшения Update 2 состоит в следующем. До этого релиза сначала происходила миграция запущенных виртуальных машин, которая занимала несколько минут и более, в зависимости от нагрузки на них. Затем уже происходила миграция выключенных машин и шаблонов ВМ (VM Templates), перенести которые занимает несколько секунд (просто перерегистрировать их на других хостах).

Однако при вхождении хоста в Maintenance Mode операции с его объектами (в том числе шаблонами) недоступны, а значит сервисы, задействовавшие клонирование ВМ из шаблона (например, VMware View или vCloud Director), также не могут исполнять свои функции, и пользователям придется ожидать окончания процесса.

Ну а в Update 2 просто поменяли местами порядок переноса - сначала мигрируют выключенные ВМ и шаблоны, что позволяет использовать их уже через несколько секунд, а только потом переезжают включенные виртуальные машины. Это иллюстрируется простой и понятной картинкой:


Таги: VMware, vSphere, Troubleshooting, Clones, ESXi, VMachines

Фотоэкскурсия по «облаку» компании 1cloud


Это гостевой пост компании 1cloud, одного из ведущих поставщиков виртуальных машин в аренду на базе гипервизора VMware vSphere для вашей инфраструктуры.

Сегодня мы хотели бы рассказать об оборудовании 1cloud, которое «урчит» в стойках ЦОД уровня Tier III в Санкт-Петербурге (SDN) и в Москве (Dataspace).

Начнем наше знакомство с серверов Dell PowerEdge R810, на которых организован базовый пул ресурсов. PowerEdge R810 выполнен на основе процессоров Intel и имеет 32 DIMM-слота, в которые можно установить до 512 ГБ оперативной памяти.

PowerEdge R810

Сервер R810 отлично подходит для решения задач виртуализации – на всех этих машинах установлены аппаратные гипервизоры vSphere ESXi, которые разделяют серверы на несколько виртуальных машин.

Отличительной особенностью PowerEdge R810 является их надежность, которая достигается за счет использования встроенных функций управления и диагностики системы и внутренних модулей SD, обеспечивающих восстановление после сбоя на уровне гипервизора.

Cisco UCS 5108 Chassis и Cisco UCS B200 M3

А это шасси, которые входят в комплекс Cisco UCS. В них разместились блейд-серверы UCS B200 M3, обладающие двумя процессорами семейства Intel Xeon E5-2690 v2. Эта система представляет собой высокопроизводительный пул вычислительных ресурсов. Читать статью далее->


Таги: 1cloud, Datacenter, Cloud, Cloud Computing, Enterprise, NetApp

Вышли VMware Virtual SAN 6.2, vSphere 6.0 Update 2 и прочие обновления продуктов VMware.


Компания VMware на днях выпустила множество обновлений своей продуктовой линейки в сфере серверной виртуализации. Прежде всего, важно, что было выпущено обновление VMware Virtual SAN 6.2, о котором мы подробно писали вот тут. Теперь его можно скачать и использовать в производственной среде.

Также для того, чтобы была обеспечена полная поддержка новых возможностей VSAN 6.2 была выпущена обновленная версия платформы виртуализации VMware vSphere 6.0 Update 2. Но самое главное там - это то, что теперь VMware Host Client (который вы знаете как ESXi Embedded Host Client) включен в стандартную поставку ESXi и доступен из коробки!

Напомним также, что о прошлом апдейте vSphere 6 Update 1, который вышел почти полгода назад, мы писали вот тут.

Посмотрим на новые возможности vSphere 6.0 Update 2. Что нового в ESXi 6.0 Update 2:

  • High Ethernet Link Speed: теперь ESXi 6.0 U2 поддерживает скорости ethernet-соединения 25G и 50G.
  • VMware Host Client: новый HTML5-клиент для управления одиночным хостом VMware ESXi, о последних версиях которого в виде VMware Fling мы писали вот тут, тут и тут. Это средство для выполнения основных административных задач, управления ресурсами и виртуальными машинами. Также Host Client подходит для поиска и решения проблем, возникших на отдельных хостах VMware ESXi, когда, например, vCenter Server или Web Client недоступны. Смотрите также Host Client 1.0 Release Notes.
  • vSphere APIs for I/O Filtering (VAIO): ESXi 6.0 Update 2 теперь поддерживает компонент IO Filter VASA Provider в полноценном IPv6-окружении.
  • Поддержка VMIOF версий 1.0 и 1.1, а также множество исправлений ошибок.

Новые возможности VMware vCenter 6.0 Update 2:

  • Поддержка двухфакторной аутентификации в vSphere Web Client средствами следующих технологий:
    • RSA SecurID
    • Смарт-карты (UPN based Common Access Card)
  • Поддержка изменения уровня логгирования vSphere ESX Agent Manager без его перезагрузки.
  • Поддержка vSphere Web Cient для Microsoft Windows 10.
  • Поддержка новых версий в качестве внешних СУБД VMware vCenter:
    • Microsoft SQL Server 2012 Service Pack 3
    • Microsoft SQL Server 2014 Service Pack 1

Помимо всего этого, в последнее время компания VMware выпустила также обновления следующих своих продуктов (о новых возможностях вы можете узнать из соответствующих Release Notes):


Таги: VMware, vSphere, Update, ESXi, vCenter, Virtual SAN, VSAN

Как задать/изменить NTP-серверы для хостов ESXi с помощью PowerCLI


PowerCLI включает в себя 3 функции для управления настройкой NTP серверa: Get/Add/Remove-VMHostNtpServer. Это можно видеть с помощью Get-Command. На мой взгляд явно не хватает ещё одной - Set-VMHostNtpServer. Данная функция объединяет в себе все 3 предыдущих плюс ещё пару для рестарта NTP-сервиса для применения конфигурации. Просто скачайте мой PowerCLI-модуль для управления виртуальной инфраструктурой VMware Vi-Module.psm1 и импортируйте его.


Таги: VMware, ESXi, PowerCLI, vSphere

Возможность Sparse Swap в VMware Virtual SAN 6.2 - как сэкономить кучу байтов


Среди возможностей решения для создания отказоустойчивых хранилищ VMware Virtual SAN 6.2 мы забыли упомянуть о нововведении в части обработки файлов подкачки - Sparse Swap.

Как вы знаете при создании виртуальной машины в обычной инфраструктуре под нее резервируется файл *.vswp, который равен по размеру объему сконфигурированной оперативной памяти виртуальной машины (либо объему незарезервированной памяти, то есть разнице между сконфигурированной и зарезервированной памятью, если она указана в настройке reservation). Это нужно на случай, когда машине не хватает свободной физической памяти (в ситуации, если уже не спасают техники memory overcommit), и она начинает сбрасывать страницы памяти в своп-файл на диске.

То есть, если вы создали ВМ с оперативной памятью 4 ГБ, то столько же займет и файл подкачки для этой ВМ. А теперь посмотрим на инфраструктуру Virtual SAN: если у вас задан параметр FTT=1, то каждый дисковый объект (в том числе и файл *.vswp) будет задублирован (если у вас mirror-конфигурация).

Теперь посчитаем, сколько места съест своп 100 виртуальных машин, у каждой из которых 4 ГБ оперативной памяти и которые размещены в кластере VMware Virtual SAN с FTT=1 в зеркальной конфигурации:

100 ВМ * 4 ГБ * 2 (FTT равен 1) = 800 ГБ

Да, именно так - почти терабайт только под своп. Кому-то это покажется расточительством, поэтому в Virtual SAN сделали такую штуку, как Sparse Swap. Эта функция позволяет создавать файлы подкачки vswp как тонкие, то есть растущие по мере наполнения данными, диски.

Для того, чтобы включить опцию Sparse Swap, нужно выполнить следующую команду на хосте VMware ESXi:

esxcfg-advcfg -s 1 /VSAN/SwapThickProvisionDisabled

Ну а вот тут вы можете найти PowerCLI-скрипт для автоматизации применения этой настройки и отката назад.


Таги: VMware, vSphere, Virtual SAN, VSAN, Storage, VMachines

Вышла новая версия ESXi Embedded Host Client v6 - багофиксы и оптимизация производительности.


Еще буквально месяц назад на сайте проекта VMware Labs появилась пятая версия ESXi Embedded Host Client, а на днях уже появилась шестая версия этого средства - ESXi Embedded Host Client v6. Напомним, что это веб-консоль для управления отдельными хост-серверами ESXi, без необходимости наличия сервера vCenter.

Посмотрим на список изменений:

  • Возможность консолидировать виртуальные диски машин.
  • Оптимизация производительности панели "recent tasks".
  • Быстрее работает синхронизация метаданных портгрупп в распределенном виртуальном коммутаторе DVS.
  • Возможность изменять сетевые настройки машин, адаптеры которых присоединены к распределенным портгруппам.
  • Загрузка виртуальных машин происходит быстрее.
  • Глобальный поиск работает заметно шустрее.
  • Быстрее отображается Host Summary.
  • Возможность спрятать нотификацию о таймауте сессии.
  • Если гостевая ОС не соответствует ОС, указанной в настройках ВМ, показывается нотификация.
  • Исправление большого числа багов - настройки адаптеров ВМ, скриншотов и прочее.

Загрузить ESXi Embedded Host Client v6 можно по этой ссылке.


Таги: VMware, ESXi, Client, vSphere

Полезная утилита от VMware - VSAN Hardware Compatibility List Checker.


На сайте проекта VMware Labs появилась интересная и полезная утилита для тех, кому нужно проверить совместимость контроллеров хранилищ на хостах VMware ESXi со списком поддерживаемых устройств в кластере VMware Virtual SAN. C помощью VSAN Hardware Compatibility List Checker можно проверить модель и версию firmaware контроллеров LSI и HP, а также их различных OEM-вариаций.

Утилита поставляется в виде exe-файла, который находится в папке с архивом:

Для начала работы нужно просто ввести имя хоста ESXi и пароль пользователя root:

В качестве результата в папке с утилитой будет сформирован html-файл (этот шаблон можно редактировать в файле reportTemplate.html), в котором будет информация о совместимости контроллеров хранилищ со списком VSAN HCL (шильдики yes и N/A).

Некоторые нюансы работы утилиты:

  • Обнаружение версии firmware доступно только для контроллеров HP/LSI.
  • Необходимо, чтобы был установлен компонент LSI/HP CIM provider.
  • Требуется запущенная служба CIM Service (secure) на хосте ESXi на порту 5989.
  • Нужен доступ к хостам ESXi по протоколу HTTPS, по порту 443.

Интересно, что утилита VSAN Hardware Compatibility List Checker работает не только с последней версией Virtual SAN, но и с более ранними версиями. Скачать HCL Checker можно по этой ссылке.


Таги: VMware, VSAN, Labs, Virtual SAN

Какие бывают VMware Tools в VMware vSphere.


Не так давно мы писали о составе пакета VMware Tools, который привносит различные улучшения и драйверы в гостевую ОС на платформе VMware vSphere, а сегодня поговорим о том, какие вообще бывают VMware Tools.

Привычная большинству из вас установка тулзов для таких гостевых ОС Windows, Linux, Solaris, FreeBSD, Mac OS X и прочих, доступна прямо из GUI vSphere Client / vSphere Web Client:

Эти VMware Tools поставляются в составе дистрибутивов VMware ESXi в виде ISO-образов, а также приходят с обновлениями в виде VIB-пакетов под названием "tools-light".

Понятное дело, что поддерживать VMware Tools в актуальном состоянии таким образом сложно, поэтому с десятой версии эти исошки доступны в рамках пакетов zip и tar, которые можно скачать по этому адресу.

В самом ближайшем будущем VMware исключит из состава поставки VMware ESXi пакеты VMware Tools для большинства ОС, оставив их только для основных версий Windows и Linux. Все остальное потребуется загружать отдельно.

Традиционный подход к обновлению VMware Tools на множестве хостов VMware ESXi - это использовать общий репозиторий для VMware Update Manager, который накатывает обновления на серверы. Более современный подход - это использовать механизм Auto Deploy для развертывания stateless-хостов, которые забирают актуальные версии VMware Tools прямо из онлайн-репозитория VMware.

Для Windows и Linux существует масса способов обновления VMware Tools:

  • Автоматическое обновление при загрузке виртуальной машины
  • Ручное через vSphere Client GUI
  • Через VMware Update Manager - немедленное, запланированное или при загрузке
  • Инициирование процесса обновления из гостевой ОС пользователем
  • Массовое обновление через сценарии PowerCLI

Для Linux существует 2 вида VMware Tools:

1. Operating System Specific Packages (OSP).

Это пакеты, которые размещены на сайте VMware (их можно скачать/обновить без аутентификации), содержащие в себе те же самые компоненты, которые находятся в ISO-образах, идущих с дистрибутивами VMware ESXi. Этот метод поставки VMware Tools для Linux уже несколько устарел и используется для старых гостевых ОС.

Первичная установка тулзов в этом случае инициируется из ОС, GUI или внешнего сценария, а дальнейшие обновления идут через менеджер пакетов, такой как Yum или Apt.

2. Open VM Tools (OVT).

Это пакеты VMware Tools с открытым исходным кодом, которые встраиваются в большинство современных Linux-дистрибутивов. Соответственно, при установке такой гостевой ОС в виртуальной машине, пакет VMware Tools будет там уже установлен.

Любой поставщик Linux-дистрибутива может взять Open VM Tools и включить любые его компоненты по своему усмотрению. Кроме того, VMware сотрудничает в основными поставщиками Linux-дистрибутивов, для которых действуют политики поддержки, озвученные в том числе в KB 2073803.

Исходный код OVT доступен для всех желающих в репозитории на GitHub, но официально поддерживаются только те OVT, которые идут вместе с дистрибутивами Linux. Если вы скомпилировали их самостоятельно - учтите, поддержки от VMware не будет.

В состав OVT часто не включаются такие функции, как dynamic desktop resizing или copy/paste с консолью ВМ, так как серверные ВМ часто бывают без иксов. Чтобы получить эти возможности нужно установить вспомогательный пакет open-vm-tools-desktop.

OVT версии 9.4 и более ранних требовали установки компонента deployPkg из репозитория OSP. Начиная с версии 9.10, такая необходимость отсутствует и OVT полностью автономны.

Несмотря на то, что есть 2 варианта VMware Tools для Linux, выбирать между ними не надо, так как для разных версий гостевых ОС используется разный тип этого пакета. Например, RHEL 6 использует оригинальные OSP-пакеты, а вот в RHEL 7 уже интегрированы Open VM Tools.


Таги: VMware, Tools, vSphere, Linux, ESXi, VMachines

Издания VMware vSphere 6.0 - полный список отличий.


Давно мы не публиковали таблицу сравнения изданий VMware vSphere, а ведь в версии vSphere 6.0 много что изменилось, поэтому иногда полезно взглянуть на таблицу ниже. Кроме того, помните, что с 30 июня колонок в таблице станет на одну меньше - издание vSphere Enterprise снимается с продаж.

Возможность / Издание VMware vSphere Hypervisor 6 (бесплатный ESXi) vSphere Essentials 6 vSphere Essentials Plus 6 vSphere Standard 6 vSphere Enterprise 6.0 - (снимается с продаж 30 июня 2016 года vSphere Enterprise Plus 6
Максимальное число процессоров в ВМ (vSMP) 8 128 128 128 128 128
Thin Provisioning
Update Manager
vStorage APIs for Data Protection
vCenter agent for VMware host
Storage APIs
VMsafe
vSphere API
vRealize Operations Foundation Смотрите KB (2108695) Смотрите KB (2108695) Смотрите KB (2108695) Смотрите KB (2108695) Смотрите KB (2108695)
vSphere High Availability
vSphere Data Protection
vSphere vMotion Cross vSwitch Cross vSwitch Cross vSwitch Cross vSwitch
vSphere Storage vMotion
SUSE Linux Enterprise Server for VMware Снят с производства Снят с производства Снят с производства
Shared Smart Card Reader
vShield Zones
Hot Add / Hot-Pluggable virtual HW
vShield Endpoint
vSphere Replication
vSphere Fault Tolerance 2-vCPU 2-vCPU 4-vCPU
vSphere DRS
MPIO / Third-Party Multi-pathing
Remote Virtual Serial Port Concentrator
vSphere Storage APIs for Array Integration
Distributed Power Management (DPM)
vSphere Distributed Switch
vSphere Host Profiles
vSphere Storage I/O Control & Network I/O Control
Direct Path vMotion
vSphere Storage DRS
vSphere vMotion Metro
vSphere Auto Deploy
vSphere View Accelerator
SR-IOV
App HA Снят с производства
Big Data Extensions
Reliable Memory
Flash Read Cache
Virtual Volumes      
Storage Policy-Based Management      
NVIDIA GRID vGPU          

Таги: VMware, vSphere, Сравнение, ESXi, vCenter

<<   <    1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 21 | 22 | 23 | 24 | 25 | 26 | 27 | 28 | 29 | 30 | 31 | 32 | 33 | 34 | 35 | 36 | 37 | 38 | 39 | 40 | 41 | 42 | 43 | 44 | 45 | 46 | 47 | 48 | 49 | 50 | 51 | 52 | 53 | 54 | 55 | 56 | 57    >   >>
Интересное:





Зал Славы Рекламодателя
Ближайшие события в области виртуализации:

Быстрый переход:
VMware Kubernetes VMachines Enterprise Offtopic Broadcom Veeam Microsoft Cloud StarWind NAKIVO vStack Gartner Vinchin Nakivo IT-Grad Teradici VeeamON VMworld PowerCLI Citrix VSAN GDPR 5nine Hardware Nutanix vSphere RVTools Security Code Cisco vGate SDRS Parallels IaaS HP VMFS VM Guru Oracle Red Hat Azure KVM VeeamOn 1cloud DevOps Docker Storage NVIDIA Partnership Dell Virtual SAN Virtualization VMTurbo vRealize VirtualBox Symantec Softline EMC Login VSI Xen Amazon NetApp VDI Linux Hyper-V IBM Google VSI Security Windows vCenter Webinar View VKernel Events Windows 7 Caravan Apple TPS Hyper9 Nicira Blogs IDC Sun VMC Xtravirt Novell IntelVT Сравнение VirtualIron XenServer CitrixXen ESXi ESX ThinApp Books P2V VCF vSAN VKS Private AI VMmark Operations Certification Memory NVMe AI VMConAWS vDefend VCDX Explore Tanzu Workstation Update Russian Ports HCX Live Recovery CloudHealth NSX Labs Backup Chargeback Aria VCP Intel Community Ransomware Stretched Network VMUG VCPP Data Protection ONE V2V DSM DPU Omnissa EUC Avi Skyline Host Client GenAI Horizon SASE Workspace ONE Networking Tools Performance Lifecycle AWS API USB SDDC Fusion Whitepaper SD-WAN Mobile SRM ARM HCI Converter Photon OS VEBA App Volumes Workspace Imager SplinterDB DRS SAN vMotion Open Source iSCSI Partners HA Monterey RDMA vForum Learning vRNI UAG Support Log Insight AMD vCSA NSX-T Graphics HCIBench SureBackup Docs Carbon Black vCloud Обучение Web Client vExpert OpenStack UEM CPU PKS vROPs Stencils Bug VTL Forum Video Update Manager VVols DR Cache Storage DRS Visio Manager Virtual Appliance PowerShell LSFS Client Availability Datacenter Agent esxtop Book Photon Cloud Computing SSD Comparison Blast Encryption Nested XenDesktop VSA vNetwork SSO VMDK Appliance VUM HoL Automation Replication Desktop Fault Tolerance Vanguard SaaS Connector Event Free SQL Sponsorship Finance FT Containers XenApp Snapshots vGPU Auto Deploy SMB RDM Mirage XenClient MP iOS SC VMM VDP PCoIP RHEV vMA Award Licensing Logs Server Demo vCHS Calculator Бесплатно Beta Exchange MAP DaaS Hybrid Monitoring VPLEX UCS GPU SDK Poster VSPP Receiver VDI-in-a-Box Deduplication Reporter vShield ACE Go nworks iPad XCP Data Recovery Documentation Sizing Pricing VMotion Snapshot FlexPod VMsafe Enteprise Monitor vStorage Essentials Live Migration SCVMM TCO Studio AMD-V Capacity KB VirtualCenter NFS ThinPrint Upgrade VCAP Orchestrator ML Director SIOC Troubleshooting Bugs ESA Android Python Hub Guardrails CLI Driver Foundation HPC Optimization SVMotion Diagram Plugin Helpdesk VIC VDS Migration Air DPM Flex Mac SSH VAAI Heartbeat MSCS Composer
Полезные постеры:

Постер VMware vSphere PowerCLI 10

Постер VMware Cloud Foundation 4 Architecture

Постер VMware vCloud Networking

Постер VMware Cloud on AWS Logical Design Poster for Workload Mobility

Постер Azure VMware Solution Logical Design

Постер Google Cloud VMware Engine Logical Design

Постер Multi-Cloud Application Mobility

Постер VMware NSX (референсный):

Постер VMware vCloud SDK:

Постер VMware vCloud Suite:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

 

Популярные статьи:
Как установить VMware ESXi. Инструкция по установке сервера ESXi 4 из состава vSphere.

Типы виртуальных дисков vmdk виртуальных машин на VMware vSphere / ESX 4.

Включение поддержки технологии Intel VT на ноутбуках Sony VAIO, Toshiba, Lenovo и других.

Как работают виртуальные сети VLAN на хостах VMware ESX / ESXi.

Как настроить запуск виртуальных машин VMware Workstation и Server при старте Windows

Сравнение Oracle VirtualBox и VMware Workstation.

Работа с дисками виртуальных машин VMware.

Диски RDM (Raw Device Mapping) для виртуальных машин VMware vSphere и серверов ESX.

Где скачать последнюю версию VMware Tools для виртуальных машин на VMware ESXi.

Что такое и как работает виртуальная машина Windows XP Mode в Windows 7.

Как перенести виртуальную машину VirtualBox в VMware Workstation и обратно

Подключение локальных SATA-дисков сервера VMware ESXi в качестве хранилищ RDM для виртуальных машин.

Как поднять программный iSCSI Target на Windows 2003 Server для ESX

Инфраструктура виртуальных десктопов VMware View 3 (VDI)

Как использовать возможности VMware vSphere Management Assistant (vMA).

Интервью:

Alessandro Perilli
virtualization.info
Основатель

Ратмир Тимашев
Veeam Software
Президент


Полезные ресурсы:

Последние 100 утилит VMware Labs

Новые возможности VMware vSphere 8.0 Update 1

Новые возможности VMware vSAN 8.0 Update 1

Новые документы от VMware

Новые технологии и продукты на VMware Explore 2022

Анонсы VMware весной 2021 года

Новые технологии и продукты на VMware VMworld 2021

Новые технологии и продукты на VMware VMworld 2020

Новые технологии и продукты на VMware VMworld Europe 2019

Новые технологии и продукты на VMware VMworld US 2019

Новые технологии и продукты на VMware VMworld 2019

Новые технологии и продукты на VMware VMworld 2018

Новые технологии и продукты на VMware VMworld 2017



Copyright VM Guru 2006 - 2026, Александр Самойленко. Правила перепечатки материалов.
vExpert Badge